在决策过程中使用机器学习技术时,模型的解释性很重要。Shapley添加说明(SHAP)是机器学习模型最有前途的解释方法之一。当一个变量的效果取决于另一个变量的值时,就会发生交互作用。即使每个变量对结果几乎没有影响,其组合也会对结果产生大量影响。了解互动对于理解机器学习模型很重要。但是,天真的外形分析无法区分主要效果和相互作用效果。在本文中,我们将Shapley-Taylor索引作为一种解释方法,用于使用Shap考虑相互作用效果的机器学习模型。我们将该方法应用于京都大学医院的癌症队列数据(n = 29,080),以分析哪种因素组合有助于结肠癌的风险。
translated by 谷歌翻译